Microsoft quiere asegurarse de que no seamos víctimas de una IA mortal

Microsoft quiere asegurarse de que no seamos víctimas de una IA mortal

Cualquiera que esté preocupado por la amenaza de un aumento de máquinas al estilo Skynet podría descansar un poco más tranquilo después del lanzamiento de nuevas medidas de protección diseñadas para evitar un posible levantamiento de la IA. La organización sin fines de lucro MITRE Corporation se ha asociado con 12 compañías de tecnología líderes, incluidas Microsoft, IBM y Nvidia, para lanzar Adversarial ML Threat Matrix. El grupo dice que el sistema es un marco abierto creado para ayudar a los analistas de seguridad a detectar, alertar, responder y lidiar con amenazas dirigidas a sistemas de aprendizaje automático (ML).

Matriz ML

Microsoft dice que la publicación fue impulsada por el crecimiento continuo en la cantidad de ataques a los sistemas comerciales de ML en todo el mundo. La compañía encuestó a una selección de 28 grandes empresas y descubrió que casi todas ellas aún no son conscientes de la amenaza que puede representar el aprendizaje automático adverso, y veinticinco de las 28 afirman que no tienen las herramientas adecuadas para proteger sus sistemas de aprendizaje automático. . Con el fin de tranquilizar y asesorar a estas organizaciones, la Matriz de amenazas contra el aprendizaje automático busca ayudar a los equipos de seguridad a defenderse de los ataques a los sistemas de aprendizaje automático. Matrix contiene una serie de vulnerabilidades pasadas y comportamientos adversos que Microsoft y MITRE han detectado a lo largo de los años, así como una gran cantidad de la experiencia de Microsoft en la industria de la seguridad. “También hemos descubierto que cuando atacan un sistema de ML, los atacantes utilizan una combinación de 'técnicas tradicionales' como el phishing y el movimiento lateral junto con técnicas de ML conflictivas”, dijo Microsoft en una publicación de blog. El repositorio GitHub Adversarial ML Threat Matrix ahora está abierto a las empresas interesadas en obtener más información. “Cuando se trata de la seguridad del aprendizaje automático, las barreras entre los esfuerzos y responsabilidades públicos y privados se están difuminando; Los desafíos del sector público, como la seguridad nacional, requerirán la cooperación de actores privados así como inversiones públicas ”, señaló Mikel Rodríguez, Director de Investigación de Aprendizaje Automático de MITRE. “Por lo tanto, para ayudar a enfrentar estos desafíos, en MITRE estamos comprometidos a trabajar con organizaciones como Microsoft y la comunidad en general para identificar vulnerabilidades críticas en la cadena de suministro de aprendizaje automático. Este marco es un primer paso para ayudar a unir comunidades para permitir que las organizaciones reflexionen sobre los desafíos emergentes de asegurar los sistemas de aprendizaje automático de manera más integral. "